8 resultados para Recent advances in Molecular Biology

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Enfermer le porteur de l’information génétique dans le noyau a obligée la cellule a créé un système de transport complexe, qui permet l’export d’un ARNm du noyau au cytoplasme. Le mécanisme général de l’export des ARNm est encore mal connu, même si les facteurs principaux ont été découverts il y a longtemps. De récents progrès en microscopie nous ont permis d’étudier directement le comportement des ARNm durant le processus d’export. Durant ma maitrise, nous avons été capables de localiser et suivre des ARNm en temps réel pour la première fois chez Saccharomyces cerevisiae. Nous avons créé un gène rapporteur en mettant le gène GLT1 sous le contrôle du promoteur GAL1. Nous avons aussi marqué l’ARNm de GLT1 avec plusieurs boucles PP7. L’ARNm sera visible après l’attachement de plusieurs protéines PP7-GFP aux boucles. En utilisant la technique d’imagerie en cellules vivantes, nous sommes capable de visualiser et suivre chaque ARNm, depuis son relâchement du site de transcription jusqu’à l’export. Une fois relâché du site de transcription, l’ARNm diffuse librement dans le nucléoplasme, mais une fois à la périphérie nucléaire, il commence à « scanner » l’enveloppe nucléaire avant d’être exporté. Nous avons trouvé que le « scanning » dépend de la présence des Myosin Like Proteins (Mlp1p et Mlp2p), protéines qui forment le panier nucléaire, car suite à la délétion de MLP1 et MLP2, les ARNm n’étaient plus capable de « scanner ». Nous avons également trouvé que la partie C-terminale de Mlp1p était nécessaire au « scanning ». De plus, suite à la délétion du gène TOM1, gène codant pour une ubiquitine ligase, les ARNm ont un comportement similaire aux ARNm d’une souche ∆mlp1/mlp2, suggérant que le « scanning » permet à Tom1p d’ubiquitiner Yra1p, ce qui causera son relâchement de l’ARNm. Également, nous avons montré que les ARNm endogènes MDN1 et CBL2 scannent aussi la périphérie nucléaire. Ensemble, nos résultats suggèrent que le scanning est un processus par lequel passent tout les ARNm nucléaire lorsqu’ils se retrouvent à la périphérie du noyau, pour initier plusieurs étapes de réarrangements nécessaires à leurs export. De plus, nous avons examiné le rôle de Yhr127p, une protéine nouvellement identifiée qui se lie à l’ARN. Après avoir marqué cette protéine avec la GFP, nous avons montré qu’elle forme des foci dans le noyau et que ces derniers vont disparaitre suite à l’arrêt de la transcription. La délétion de YHR127 à conduit à une augmentation de la transcription de quelques gènes spécifiques, mais n’affecte pas la capacité de la cellule à exporter les ARNm. Nos résultats suggèrent que cette protéine joue un rôle dans la régulation de la transcription et/ou dans la stabilité de l’ARNm.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent advances in tissue engineering and regenerative medicine have shown that controlling cells microenvironment during growth is a key element to the development of successful therapeutic system. To achieve such control, researchers have first proposed the use of polymeric scaffolds that were able to support cellular growth and, to a certain extent, favor cell organization and tissue structure. With nowadays availability of a large pool of stem cell lines, such approach has appeared to be rather limited since it does not offer the fine control of the cell micro-environment in space and time (4D). Therefore, researchers are currently focusing their efforts on developing strategies that include active compound delivery systems in order to add a fourth dimension to the design of 3D scaffolds. This review will focus on recent concepts and applications of 2D and 3D techniques that have been used to control the load and release of active compounds used to promote cell differentiation and proliferation in or out of a scaffold. We will first present recent advances in the design of 2D polymeric scaffolds and the different techniques that have been used to deposit molecular cues and cells in a controlled fashion. We will continue presenting the recent advances made in the design of 3D scaffolds based on hydrogels as well as polymeric fibers and we will finish by presenting some of the research avenues that are still to be explored.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Département de linguistique et de traduction

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Les premières études électrophysiologiques et anatomiques ont établi le rôle crucial du cortex somatosensoriel primaire et secondaire (SI et SII) dans le traitement de l'information somatosensorielle. Toutefois, les récentes avancées en techniques d’imagerie cérébrale ont mis en question leur rôle dans la perception somatosensorielle. La réorganisation du cortex somatosensoriel est un phénomène qui a été proposé comme cause de la douleur du membre fantôme chez les individus amputés. Comme la plupart des études se sont concentrées sur le rôle du SI, une étude plus approfondie est nécessaire. La présente série d'expériences implique une exploration du rôle des régions somatosensorielles dans la perception des stimuli douleureux et non-douleureux chez des volontaires sains et patients avec des douleurs de membre fantôme. La première étude expérimentale présentée dans le chapitre 3 est une méta-analyse des études de neuro-imagerie employant des stimuli nociceptifs chez des volontaires sains. En comparaison aux précédentes, la présente étude permet la génération de cartes quantitatives probabilistes permettant la localisation des régions activées en réponse à des stimuli nociceptifs. Le rôle du cortex somatosensoriel dans la perception consciente de stimuli chauds a été étudié dans le chapitre 4 grâce à une étude d'imagerie par résonance magnétique fonctionnelle, dans laquelle des stimuli thermiques douloureux et non-douloureux ont été administrés de manière contrebalancée. Grâce à cette procédure, la perception de la chaleur fut atténuée par les stimuli douloureux, ce qui permit la comparaison des stimuli consciemment perçus avec ceux qui ne le furent pas. Les résultats ont montrés que les stimulations chaudes perçues ont engendré l’activation de l’aire SI controlatérale, ainsi que de la région SII. Grâce à l’évaluation clinique de patients amputés présentant une altération de leurs perceptions somatosensorielles, il est également possible de dessiner un aperçu des régions corticales qui sous-tendent ces modifications perceptuelles. Dans le chapitre 5 nous avons émis l'hypothèse proposant que les sensations du membre fantôme représentent un corrélat perceptuel de la réorganisation somatotopique des représentations sensorielles corticales. En effet, la réorganisation des sensations peut donner des indices sur les régions impliquées dans la genèse des sensations référées. Ainsi, un protocole d’évaluation sensoriel a été administré à un groupe de patients affligés de douleur au niveau du membre fantôme. Les résultats ont montré que, contrairement aux études précédentes, les sensations diffèrent grandement selon le type et l'intensité des stimuli tactiles, sans évidence de la présence d’un modèle spatialement localisé. Toutefois, les résultats actuels suggèrent que les régions corticales à champs récepteurs bilatéraux présentent également des modifications en réponse à une déafférentation. Ces études présentent une nouvelle image des régions corticales impliquées dans la perception des stimuli somatosensoriels, lesquelles comprennent les aires SI et SII, ainsi que l'insula. Les résultats sont pertinents à notre compréhension des corrélats neurologiques de la perception somatosensorielle consciente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un intérêt grandissant pour le rôle du citoyen dans la prise de décision concernant la vie publique se développe depuis les dernières années. Le développement et la mise en oeuvre de divers mécanismes de participation citoyenne, comme les conférences citoyennes, témoignent de cet intérêt. Nombre de ces expériences ont fait l'objet d'une évaluation, mais essentiellement au niveau de l'efficacité ou du succès de l'exercice. Peut-on les évaluer sur le plan de l’éthique? Quels sont les défis éthiques posés par les mécanismes de participation citoyenne? Ce mémoire évalue une expérience de conférence citoyenne portant sur les avancées de la biologie humaine à l’ère de la génomique mise sur pied par le Groupe de recherche en bioéthique (GREB) de l’Université de Montréal en 2005. À l’aide du concept de l’éthique de la discussion, telle que proposée par quatre auteurs québécois, une analyse qualitative est effectuée sur six documents rédigés dans le cadre de la conférence. Deux catégories de résultats sont discutées. D’abord, les divers éléments relatifs à la conférence citoyenne qui ont soulevé notre attention. Ensuite, les préoccupations des participants en lien avec la science, la société et la participation. Une meilleure compréhension des aspects éthiques auxquels on devrait accorder une attention particulière contribuera à l’amélioration du mécanisme de conférence citoyenne et à son utilisation à long terme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.